Le bourrage d'index fait référence aux sites web ayant un nombre élevé de pages, qui sont "gonflées" avec des pages de faible valeur. Ces pages sont ensuite indexées par les moteurs de recherche, ce qui nuit à la performance de votre site.
Le principal problème est que le bourrage d'index signifie que les pages de faible valeur l'emportent sur les pages de haute valeur. Cela signifie que les moteurs de recherche considéreront votre site comme de faible valeur. Même si vous mettez beaucoup d'efforts sur vos pages de haute valeur, cela sera contrebalancé par ces pages de faible valeur.
Votre objectif principal avec le SEO est qu'un robot d'exploration de moteur de recherche puisse :
Lorsqu'un site web a un nombre élevé de pages, mais que beaucoup de ces pages sont de mauvaise qualité, cela gaspille votre budget de crawl précieux. Cela peut alors dégrader le classement global de votre site dans les moteurs de recherche. Pour cette raison, c'est un élément important à surveiller régulièrement.
Un des principaux souffrants du bourrage d'index sont les sites de commerce électronique, car ils ont généralement de nombreuses pages de produits. Même après que des produits ne soient plus disponibles, l'URL et la page peuvent encore être indexées. Les recherches de produits et les fonctionnalités de filtrage peuvent également provoquer des centaines ou des milliers de pages "gonflées". Il existe également de nombreuses autres causes de bourrage d'index, telles que :
En gros, chaque page répertoriée par un moteur de recherche qui n'apporte pas de valeur à l'utilisateur est du bourrage d'index. Certaines ne peuvent pas être évitées, mais l'objectif doit être de les minimiser autant que possible.
Vous avez vraiment deux options :
Aussi simple que cela puisse paraître, cela peut prendre du temps. Il peut également falloir un certain temps pour que les résultats positifs de votre travail apparaissent. Cependant, soyez assuré qu'avec le temps, cela portera ses fruits. Pour établir les pages qui doivent être supprimées, vous devez analyser le taux d'indexation de votre site web (en vous assurant de lister les pages importantes qui doivent être indexées). Vous devez ensuite comparer cela avec les pages que Google a indexées. L'excès est le bourrage d'index dont vous souhaitez vous débarrasser.
Vous pouvez commencer par cibler les "fruits à portée de main". Ce sont des pages que vous pouvez facilement identifier dans votre plan de site XML qui ne devraient pas y être. Ensuite, supprimez-les de votre plan de site, et/ou supprimez-les si elles ne servent plus à rien.
Bien que vous ne puissiez pas empêcher les robots d'exploration web d'accéder à une page, vous pouvez leur indiquer de ne pas l'indexer. La plupart des moteurs de recherche respecteront cette directive, mais d'autres peuvent ne pas le faire, donc ce n'est pas une méthode infaillible.
Si vous avez du contenu qui est vraiment confidentiel, vous aurez besoin de fonctionnalités de sécurité plus avancées pour bloquer les robots d'exploration web. L'un d'eux étant le fichier .htaccess, qui peut contrôler qui voit quoi dans des dossiers individuels. Cependant, c'est un processus complexe et technique, qui ne doit pas être entrepris par des débutants !
de l'HTML. Cela peut être fait comme ceci :
<head>
<meta name="robots" content="noindex">
</head>
User-agent: googlebot
Disallow: /temoignages/
Disallow: /checkout/
Disallow: /page-contenu1.htm/
Noindex: /page-contenu1.htm/
Ne permettez pas aux pages de résultats de recherche internes (lorsqu'un utilisateur utilise la barre de recherche sur votre site) d'être explorées par les moteurs de recherche. Sinon, les chercheurs pourraient cliquer sur un lien sur la page des résultats de recherche, mais être dirigés vers une autre page de résultats de recherche sur votre site web. Cela offrirait une mauvaise expérience utilisateur.
Si des services de proxy génèrent des URLs pour votre site web, ne permettez pas qu'elles soient explorées.
Faites réaliser un audit SEO complet, soit par un spécialiste SEO, soit par un outil en ligne, comme nous ici chez Labrika. Notre rapport de comportement des utilisateurs vous permet de voir les pages qui n'ont aucun trafic et qui sont donc susceptibles de "gonfler" votre site.
L'objectif principal de tout moteur de recherche est d'être le meilleur pour fournir des résultats de haute qualité à ses utilisateurs. Pour y parvenir, ils déploient des ressources importantes pour identifier et éliminer les pages (ou les sites web entiers) qui ne répondent pas à leurs critères.
C'est également un processus qui continue d'être amélioré et affiné. Cela signifie que nous, en tant que professionnels du SEO et webmasters, devons faire de notre mieux pour anticiper ces problèmes.
Ce type de problème technique de SEO devrait devenir une partie importante de l'examen de qualité de tout site web. Assurez-vous que les robots d'exploration ne voient que le meilleur de votre contenu !
Effectuer les corrections que nous avons décrites ci-dessus est une étape clé pour optimiser vos efforts SEO.